升級成功!你現在是人工智能偵探了!不太對喔!再仔細檢查一下線索。信任指數已更新……是……嗎??……還是……?
如果一個人工智能的訓練資料缺少某些人群,那這個人工智能會變成什麼樣子?
正確!人工智能就像一面鏡子。如果資料本身不公平或資訊缺失,人工智能的決策也會產生偏見。
當人工智能編造出聽起來真實的假事實時,這稱為什麼?
完全正確!這稱為幻覺——人工智能是根據文字模式「夢想」出答案。
人工智能是否總是知道「真相」?
沒錯!人工智能尋找的是模式與機率,這並不等同於真正的真相。
為什麼一個用來篩選履歷的人工智能可能會忽略來自不同背景的優秀人才?
正確!如果訓練資料有限,人工智能就會從數學上推論:『不同』就等於『不符合資格』。
如果人工智能給你一個用於學校專題的資訊,你該怎麼做?
太棒了!永遠要驗證人工智能提供的資訊,因為它有時會自信地「幻覺」出虛假細節。
目前人工智能的錯誤是無意的,但未來人們能否故意利用人工智能欺騙他人?
是的!接下來我們會看到,理解人工智能的錯誤,能幫助我們準備面對一個充滿刻意欺騙的世界。
1
AI 偏見與幻覺
EvoClass-AI004Lecture 10
0
🤖 嘀嘀噠!我是你的道德導師。選擇一個謎題來破解:資料偏見或人工智能幻覺!
Py-Bot 指令即時
哔!你好,偵探!今天我們要學習的是,人工智能並非總是正確的。有時它會複製我們的錯誤,有時則只是憑空捏造!
主題進度0%
把人工智能想像成一面鏡子。如果我們只給它看貓的照片,它可能以為狗根本不存在!如果我們的資料存在舊有的偏見,人工智能就會重複這些偏見。就像一個招聘機器人,只挑選某一種類型的人,因為它過去只見過這種人。這稱為「演算法偏見」。
1
次主題 1
鏡子(偏見)
人工智能反映我們給它的資料——甚至包括不公平的部分。
和你不同的是,人工智能討厭說『我不知道』。它像玩大型『填空遊戲』一樣預測下一個字。有時它會『幻覺』出聽起來真實卻完全虛假的事實!它只是遵循模式,而非檢驗真相。
2
次主題 2
夢想家(幻覺)
當人工智能聽起來極其自信,卻完全錯誤的時候。
即使世界上最聰明的人工智能也會犯錯。請務必用可信來源再次核對你的資訊!
你知道嗎?
即使世界上最聰明的人工智能也會犯錯。請務必用可信來源再次核對你的資訊!
載入中……
⭐⭐⭐

任務完成!

你是一名人工智能偵探!